Maschinelle Übersetzungen: Wo die Zukunft schon lange begonnen hat
Die Idee der maschinellen Übersetzungen (oder kurz, für den englischen Begriff Machine Translation) ist an sich nichts Neues und wurde bereits in den 1950ern das erste Mal live demonstriert. Anbieter wie Google Übersetzer haben in der Zwischenzeit bewiesen, dass mit MT schnell nützliche Übersetzungsergebnisse geliefert werden können, vorausgesetzt, man verfügt über eine gute Internetverbindung. Heutzutage sind diese Art von Technologien, vor allem betrieblich entwickelte Übersetzungsprogramme, für weniger kreative Textarten in der Branche weit verbreitet, um Kunden Zieltexte schneller und günstiger bereitzustellen. Die weltweite Verfügbarkeit des Internets und inhaltsorientierte Marketingkampagnen haben zu einer riesigen Anzahl an Publikationen geführt. Aufgrund von immer globaler werdenden Märkten erfährt der Bedarf an Übersetzungen dieser Inhalte auch weiterhin einen Aufwärtstrend, und der steigende Kosten- und Termindruck ist mitunter dafür verantwortlich, dass MT mit manueller Nachbearbeitung durch Sprachexperten, das sogenannte Post-Editing, für viele Unternehmen eine zunehmend attraktive Option darstellt. Übersetzungen können so im Idealfall nicht nur schneller produziert werden, sie sind auch wesentlich günstiger als manuell erstellte Übersetzungen. Die Vorstellung der neuesten MT-Generation, der neuronalen maschinellen Übersetzung, hat dafür gesorgt, dass MT einmal mehr zum wichtigsten Schlagwort in der Übersetzungsindustrie geworden ist.
Anfänge der maschinellen Übersetzungen
Die ersten Versuche der maschinellen Übersetzungen waren regelbasiert (RBMT), das heißt, einzelne Begriffe und Grammatikregeln wurden analysiert. Dazu ersetzte RBMT jedes Wort bzw. grammatikalische Struktur der Ausgangsprache mit dem entsprechenden Äquivalent in der Fremdsprache. Die Ergebnisse waren jedoch kaum verwendbar. Jeder, der mehr als eine Sprache spricht, weiß, dass es für viele Begriffe eher schwierig ist, eine einfache Wort-für-Wort-Übersetzung zu finden. Übersetzen wir zum Beispiel das englische Wort „runway“ ins Französische, Spanische und Deutsche. Die Übersetzung im Französischen lautet piste, im Spanischen pista. Doch im Deutschen ist es leider nicht so einfach. Was ist hier gemeint? Die Landebahn, die Startbahn oder gar der Laufsteg? Und das ist nur ein Beispiel für eine Sprache. Jede Sprache hat ihre Besonderheiten, die den Erfolg der maschinellen Übersetzung erheblich erschweren.
Wie ging es weiter?
Der Nachfolger von RBMT war die statistische maschinelle Übersetzung (SMT), die sich etwas größere Texteinheiten vornahm. Mehr als nur einzelne Worte, aber weniger als ganze Sätze. Kurze Formulierungen wurden anhand einer riesigen Datenbank bereits bestehender Übersetzungen analysiert, und die MT spuckte den besten Treffer aus. Also eine außerordentliche Verbesserung. Trotzdem ließen die Ergebnisse noch immer zu wünschen übrig, denn Linguisten übersetzen keine einzelnen Satzteile und fügen diese dann später zusammen. Die durch STM gelieferten Ergebnisse sind zwar besser als RBMT-Übersetzungen, doch aufgrund der vielen Fehler eignet sich STM nur für bestimmte Inhalte, wie einfache Korrespondenz. Für kreative Texte, vor allem aus dem Marketingbereich, dagegen kann SMT kaum eingesetzt werden.
Im Hier und Jetzt
Für eine große Überraschung sorgte die Vorstellung der neuronalen maschinellen Übersetzung (NMT), die sogar noch größere Texteinheiten analysiert, und zwar ganze Sätze. Das Beste dabei ist, dass NMT Texte nicht nur analysiert, sondern auch lernt. Es sind hier nicht die MT-Entwickler, die entscheiden, auf welche sprachlichen Besonderheiten das Übersetzungsprogramm zu achten hat. NMT analysiert bestehende Übersetzungen einer Datenbank (wie bei SMT), lernt und entscheidet dann selbst. Das Programm wertet B